Del 4: Vad tre marknader lärde oss om prediktivt underhåll
januari 2026
För några veckor sedan deltog jag i Energiforsks kurs om asset management och datainsamling för elnätbolag. Det var några av de mer givande dagarna jag haft på länge. Inte för att allt var nytt, utan för att det bekräftade och nyanserade något jag länge anat: att branschen i stort fortfarande kämpar med grunderna, och att det är just där det viktigaste arbetet sker.
Jag tänkte dela mina reflektioner och försöka sätta fingret på vad jag tog med mig därifrån.
En av de första sakerna som slog mig var hur bred domänen egentligen är. Kursen hade deltagare från hela spektrumet: nätplanering, drift och underhåll. Asset management enligt ISO 55001 handlar om att optimera förvaltningen av elnätets komponenter under hela deras livscykel, från planering och byggnation till drift och underhåll. Det är inte en silo, det är en helhet.
Ändå pratar vi i branschen ofta om underhåll som om det vore synonymt med asset management. Det är det inte. Och den distinktionen spelar roll när man börjar fundera på vilken data man faktiskt behöver samla in och varför.
Det mest återkommande temat under dagen var datakvalitet och interoperabilitet, (det vill säga förmågan att data från olika system kan delas och användas tillsammans). Många av de elnätbolag som deltog saknar fortfarande grundläggande, strukturerad och tillgänglig underhålls- och felstatistik. Det kan låta häpnadsväckande, men det är förståeligt när man tänker på hur data faktiskt försvinner: papperspärmar och ritningar som slängs utan att ersättas digitalt och skalbart, IT-system som byts ut utan att historiken migreras, fältpersonal som antecknar observationer i Excel eller Word-filer som är svåra att systematisera istället för strukturerade databaser.
Kursen illustrerade det elegant med ett enkelt resonemang: för att fatta datadrivna beslut behöver du analys. För att analysera behöver du data. Och för det behöver du faktiskt samla in den, konsekvent och strukturerat, med en tanke på vad den ska användas till.
Det kanske mest slående exemplet var felstatistik. Värdet av den typen av data växer exponentiellt över tid, men bara om den samlas in från början och förvaltas rätt. De som inte börjar nu kommer att sakna den om 20 år, precis när de behöver den som mest.
En annan reflektion jag tog med mig är att det finns ett tydligt glapp i hur analytiskt arbete faktiskt bedrivs. Det finns ett starkt fokus på manuella expertanalyser, kunniga ingenjörer som gör djupdykningar på specifika problem. Det är värdefullt, men det är inte skalbart.
Det som saknas är de enkla, automatiska och löpande analyserna. Rutinmässig event-markering, kontinuerlig tillståndsövervakning, automatiska avvikelserapporter. Inte avancerad AI, utan de grundläggande mekanismer som frigör experternas tid till det som faktiskt kräver deras kompetens.
Paradoxalt nog är det just automatiseringen av de enkla analyserna som är förutsättningen för att de avancerade ska bli möjliga. Du kan inte hoppa direkt till prediktivt underhåll om du inte har en fungerande infrastruktur för att samla in och hantera data i realtid.
Något som slog mig under dessa dagar var hur informationsklassning ibland skapar en ängslan som faktiskt bromsar digitaliseringen. Det händer att data som egentligen är oproblematisk hanteras med samma försiktighet som känslig anläggnings- eller driftsinformation, vilket gör att den inte används alls.
Det handlar inte om att sänka säkerhetskraven. Det handlar om att tydligare klassificera vad som faktiskt är känsligt, så att den data som kan delas och analyseras fritt också faktiskt görs tillgänglig, friktionsfritt, för de som behöver den, när de behöver den, för att skapa värde för organisationen.
Det praktiska samtalet om affär och inköp var också värt att lyfta. Förslaget inför den nya reglerperioden skapar utrymme för en annan typ av investeringsbeslut än tidigare. Men det ställer också krav på oss som leverantörer: vi måste kunna paketera ett tydligt business case för varje användningsområde och bli bättre på att förklara varför insamlingsinfrastrukturen för underhållsdata är en förutsättning, inte ett tillägg.
Det är lätt att prata om prediktivt underhåll och tillståndsbaserade beslut som om de vore enkla nästa steg. I praktiken kräver de en gedigen datagrund som många bolag ännu inte har på plats. Det är det vi måste hjälpa kunderna att förstå och att bygga.
Att sitta i ett rum med elnätbolag och höra dem beskriva sina utmaningar öppet och ärligt var värdefullt på ett sätt som inga rapporter kan ersätta. Bilden som framträdde var inte oroande, den var faktiskt hoppfull. Branschen vet vad den behöver göra. Man förstår kopplingen mellan data, analys och bättre beslut. Det som saknas är ofta inte viljan, utan rätt stöd för att ta de första stegen.
De första stegen behöver inte vara stora. I praktiken handlar det om att börja kartlägga vilken data ni faktiskt redan har och var den försvinner i era processer idag. Nästa steg är att identifiera ett konkret användningsområde med ett tydligt business case: vad vill vi kunna besluta om, och vilken data krävs för det? Därifrån går det att bygga en insamlingsinfrastruktur som är enkel att börja i liten skala, men som håller när behoven växer.
Det är precis där Gomero vill vara. Inte som en produktleverantör som säljer in lösningar, utan som en partner som hjälper till att lägga just den grunden.